#AI 能力
Gemini 3.1 Pro突襲:推理能力翻倍,Google打響AI"小步快跑"第一槍
引言當行業還在期待GPT-5.3時,Google用一場".1"版本號革命重新定義了AI迭代節奏。2026年2月24日凌晨,Google突然發佈Gemini 3.1 Pro大模型,這是其首次採用".1"小版本號,但升級幅度卻遠超預期。在ARC-AGI-2基準測試中,Gemini 3.1 Pro得分77.1%,是Gemini 3 Pro(31.1%)的2倍還多。這一突破不僅刷新了Google自身的技術紀錄,更標誌著大模型行業正式進入"高頻小步快跑"的新時代。更關鍵的是定價策略:每百萬token輸入僅2美元,輸出10美元,這一價格直接對標Anthropic Sonnet 4.6,在保持性能領先的同時實現了成本的大幅最佳化。Google用行動證明,AI競爭不再是"參數軍備競賽",而是"效率與速度的比拚"。01 技術突破:推理能力的量子躍遷Gemini 3.1 Pro最引人注目的突破在於推理能力的翻倍提升。傳統大模型升級往往聚焦於參數規模或多模態能力,而Google此次選擇了更艱難的路徑——從根本上提升模型的邏輯推理和問題解決能力。ARC-AGI-2基準測試的77.1%得分意味著什麼?這一測試專門評估AI系統的抽象推理能力,要求模型從有限示例中歸納出通用規則,並應用於全新場景。77.1%的得分不僅超越了所有前代Gemini模型,更接近了人類專家的表現水平。對比之下,GPT-5.2在同一測試中的得分為68.3%,Claude Opus 4.6為72.8%。多模態能力的全面進化同樣令人印象深刻。Gemini 3.1 Pro支援100萬token超長上下文窗口,能夠一次性處理整本書等級的文件或大型程式碼庫。在創意程式設計方面,模型能夠直接生成3D版"椋鳥群飛"動畫,並支援手勢追蹤互動,實現了從靜態內容生成到動態互動體驗的跨越。vibe coding能力的同步增強為開發者帶來了全新體驗。模型能夠更好地理解程式碼背後的設計意圖和架構邏輯,而不僅僅是語法正確性。實測資料顯示,在處理複雜演算法重構、架構最佳化等任務時,Gemini 3.1 Pro的精準率比前代提升45%。02 行業意義:從"整數版本"到".1迭代"的範式轉變Google首次採用".1"小版本號,這一看似微小的變化背後,是AI行業發展邏輯的根本性轉變。高頻小步快跑成為新常態。傳統上,大模型迭代以整數版本為單位,升級周期長達數月甚至半年。Gemini 3.1 Pro的發佈預示著,未來AI能力的進化將更加頻繁、更加精細。預計未來6個月內,我們將看到更多".1"、".2"等級的快速迭代,而非傳統的整數版本更新。企業應用更新機製麵臨重構。對於依賴AI服務的企業而言,這意味著需要建立更敏捷的AI應用更新機制。傳統"一年一升級"的節奏將被打破,企業需要能夠快速適配模型能力的持續最佳化,保持競爭優勢。技術競爭維度更加多元。當版本迭代頻率提升,競爭不再侷限於"誰先發佈大版本",而是"誰能持續提供最優體驗"。這要求廠商在模型最佳化、工程效率、生態建設等多個維度保持領先。使用者受益程度顯著提升。更頻繁的迭代意味著使用者能夠更快享受到技術進步帶來的價值。無論是開發者工具的增強,還是消費級應用的體驗最佳化,都將以更快的節奏呈現給終端使用者。03 定價策略:性能領先下的成本最佳化Gemini 3.1 Pro的定價策略同樣體現了Google的戰略思考。每百萬token輸入2美元、輸出10美元的價格,在保持性能領先的同時,實現了對競品的成本優勢。對比分析顯示:相比Anthropic Sonnet 4.6(輸入3美元、輸出15美元),Gemini 3.1 Pro便宜33%相比OpenAI GPT-5.2 Turbo(輸入5美元、輸出15美元),成本優勢更加明顯在相同預算下,企業可以處理更多token量,實現更高的投入產出比中小企業市場成為重點。傳統高性能AI服務主要被大型企業壟斷,而Gemini 3.1 Pro的親民定價,意味著更多中小企業能夠負擔得起頂尖AI能力。這對於加速AI技術普惠、推動行業數位化轉型具有重要意義。開發者生態的吸引力增強。對於個人開發者和初創團隊而言,成本是選擇AI服務的關鍵考量。Gemini 3.1 Pro的性價比優勢,將吸引更多開發者加入Google生態,推動應用創新的繁榮。04 生態佈局:從模型到應用的全鏈路最佳化Gemini 3.1 Pro的發佈不是孤立事件,而是GoogleAI生態戰略的重要一環。Gemini App已全面上線。普通使用者可以通過Gemini App直接體驗新模型,享受比前代更精準的複雜問題解答能力。實測顯示,在處理數學證明、邏輯推理、專業諮詢等任務時,新模型的精準率和響應速度均有顯著提升。API服務的全面升級。開發者可以通過Gemini API快速接入新模型,享受推理能力翻倍帶來的效率提升。Google同時最佳化了API的穩定性和響應速度,確保企業級應用的高可用性。多模態創作工具鏈完善。結合Gemini 3.1 Pro強大的多模態能力,Google推出了全新的創意工具套件,支援"文生視訊+互動"的新型內容形式。這對於內容創作者、教育工作者、行銷人員等群體具有重要價值。企業級解決方案深化。針對金融、醫療、法律等垂直行業,Google提供了基於Gemini 3.1 Pro的定製化解決方案,幫助企業在保持資料安全的前提下,享受AI技術帶來的效率提升。05 競爭格局:三巨頭技術路線的分化Gemini 3.1 Pro的發佈,進一步凸顯了AI三巨頭技術路線的分化。Google的"推理優先"路線。通過持續最佳化模型的邏輯推理能力,Google正在建構差異化的技術優勢。在需要複雜問題解決、專業諮詢、科學計算等場景中,Gemini系列的表現日益突出。OpenAI的"通用能力"路線。GPT系列繼續強化其通用性和適應性,在保持各方面能力均衡的同時,通過規模效應降低成本。但整數版本迭代周期較長,可能面臨敏捷性挑戰。Anthropic的"安全與專業"路線。Claude系列在AI安全、專業任務處理上持續深耕,特別是在程式碼安全、法律合規等垂直領域建立了獨特優勢。但定價相對較高,可能限制其規模化應用。國產大模型的追趕壓力。雖然DeepSeek、智譜GLM-5等國產模型在特定領域表現出色,但在推理能力的系統性提升上仍需追趕。Gemini 3.1 Pro的發佈,為國產模型提供了重要的技術參考和競爭標竿。06 實測體驗:從"工具"到"思維夥伴"的進化對於一線使用者而言,Gemini 3.1 Pro帶來的體驗升級是實實在在的。複雜問題處理能力顯著提升。在測試中,模型能夠準確解答研究生等級的數學證明題,理解複雜的法律條文邏輯,提供專業的醫療諮詢建議。這種能力的提升,讓AI從簡單的資訊檢索工具,進化為真正的"思維夥伴"。長文件理解更加精準。得益於100萬token的上下文窗口,模型能夠準確理解整本書、大型程式碼庫、複雜研究報告的內容。在處理學術論文審稿、程式碼架構評審等任務時,表現接近人類專家水平。創意表達更加豐富。在內容創作測試中,模型不僅能夠生成高品質的文字內容,還能夠創作互動式動畫、設計複雜的資料可視化圖表、製作專業的簡報。這種多模態創作能力,為創意工作者提供了全新的工具。響應速度持續最佳化。官方資料顯示,Gemini 3.1 Pro的響應時間相比前代縮短30%,在處理複雜推理任務時,使用者能夠感受到明顯的流暢度提升。也看到了Gemini新增的製作音樂模組(終於有人挑戰suno了),試了一下做一首30秒的武俠歌曲,完成度也很不錯。gemini給我做的國風武俠電影主題曲07 未來展望:AI發展的新節奏與新挑戰Gemini 3.1 Pro的發佈,不僅是一個產品的升級,更預示著AI行業發展的新節奏。技術迭代的加速度。".1"版本號的出現,意味著技術進步的顆粒度更加精細,迭代頻率更加密集。這要求整個行業建立更加敏捷的研發體系、更加靈活的部署架構、更加智能的測試方法。應用創新的新機遇。更強大的推理能力,將催生更多創新應用場景。從智能教育輔導到專業諮詢服務,從科學計算輔助到複雜決策支援,AI的應用邊界將持續擴展。人才需求的結構性變化。隨著AI能力的快速進化,對AI人才的需求將從"模型訓練專家"向"應用創新專家"轉變。能夠將AI能力與行業需求深度結合的人才,將成為市場的新寵。倫理治理的緊迫性。更強大的推理能力,也帶來了新的倫理挑戰。如何確保AI系統的決策透明、公平、可控,將成為行業必須面對的重要課題。結語Google的這次".1版本突襲",表面上是技術升級,深層則是行業競爭邏輯的根本性轉變。當AI發展從"整數版本躍進"轉向"小數版本迭代",整個行業的節奏、格局、規則都將被重新定義。推理能力的翻倍提升,不僅僅是技術參數的最佳化,更是AI從"資訊處理工具"向"智能思維夥伴"進化的重要里程碑。在這個AI重新定義一切的時代,能夠率先突破推理瓶頸、建構持續最佳化能力的企業,將掌握下一個階段的發展主動權。真正的競爭才剛剛開始。技術優勢需要轉化為生態優勢,單點突破需要擴展為系統領先。對於全球AI產業而言,Gemini 3.1 Pro的發佈既是挑戰,也是機遇。在這個AI從"炫技"走向"實用"的關鍵轉折點,能夠平衡技術創新與商業落地的企業,將引領行業進入更加成熟、務實的新階段。當矽谷醒來時,會發現AI競爭的規則已經改變。這場始於".1版本號"的技術革命,或許將開啟全球AI發展的新篇章——一個更加注重實用性、可及性和可持續性的新篇章。 (遊戲AI說)
新德里這場對話,Sam Altman 把 AI 最難的題說透了
AI 能力在加速,這是共識。但真正的問題是什麼?2026 年 2 月 20 日,OpenAI CEO Sam Altman 在新德里的一場訪談裡,給出了他的答案:四道題。能力到那了?算力夠不夠?工作怎麼變?社會跟得上嗎?他沒給標準答案,但把每道題的難點說清楚了。比如 First Proof 為什麼能做對 7 道研究題,Codex 在印度為什麼增長最快,算力瓶頸到底卡在那,工作到底是被替代還是被重寫。拋開字斟句酌的公關話術,這是一次難得的坦率交底。我們整理了訪談的核心內容:AI 能力到那了?算力天花板在那?工作會怎麼變?治理為什麼最難?第一道題|能力到那了:已經跨入“研究級”門檻關於 AI 的真實能力邊界,Altman 強調,過去這一年,模型絕不只是“變聰明了一點”,而是任務難度完全不同了。過去一年,模型從高中數學跨到了研究級數學;從能解釋程式碼,到能生成可運行的應用;從回答物理概念,到推導物理學的新結果。1、從做題到做研究Altman舉了兩個例子: 在 First Proof 實驗(11位頂尖數學家發起的AI測試)中,模型面對10 個研究級數學問題,成功解出了7個。這7道題都有完整推導過程,靠的是邏輯推演。在理論物理學領域,AI也開始推導新的物理學結果,觸及人類知識的前沿。2、工程師的工作重心在變程式設計領域的變化更直觀。很多開發者現在給Codex一個功能描述,它就能生成初版應用:介面、互動、邏輯都有。印度成了全球使用者增長最快的市場。Altman說,大量年輕開發者跳過了傳統程式設計師必經的底層訓練,直接上手就能做出作品。這在開發者群體快速增長的國家特別明顯。3、AGI 已經很接近主持人問到 AGI還有多遠。 Altman的回答很直接:已經很接近了。他給出了一個很有意思的視角:如果時間倒退回六年前,告訴大家有一個系統能做前沿研究、能寫複雜程序、能勝任各種高難度的知識工作,當時的大多數人一定會驚呼“這就是 AGI”。只不過現在,我們身在其中,逐漸對強大的工具習以為常了。按照目前的速度,到 2028 年底,全球 AI 系統同時處理的工作量,可能會超過全人類的總和。從數學、物理、程式設計這些最難突破的領域看,今天 AI 能完成的,已經包括過去只有高技能人才才能處理的知識工作。看懂了今天 AI 這種驚人的能力躍升,我們才能真正明白,為什麼 Altman 接下來會如此急迫地談論“算力瓶頸”。第二道題|算力夠不夠:遠遠不夠主持人問:未來三到五年,AI 最大的限制是什麼?Altman 毫不猶豫地說:算力。 能不能讓足夠多的人,用上足夠強的 AI?這是當下最現實的問題。1、強模型有,但 GPU 不夠用Altman 透露,團隊在實驗室裡看到的模型能力,比公開版本要強得多。之所以沒有全量發佈,是因為算力成本太高。我們有頂級的模型,卻沒有足夠的 GPU 來支撐它全天候為所有人服務。為瞭解決這個問題,OpenAI 在多條線上同時推進:繼續加深與輝達的合作;支援新興晶片公司做推理端的最佳化;同時推進 OpenAI 自己的自研晶片計畫。外界將此解讀為“多線平行”,但 Altman 給的理由極其簡單:要把更強的 AI 推向更廣泛的人群,算力必須大幅擴張。所有能擴產能的路,都必須走。2、真正的天花板:不是水,而是電針對外界流傳甚廣的“每次呼叫 AI 要消耗 17 加侖水”的說法,Altman 明確予以否認。他表示水的使用量被嚴重誇大了,真正需要關注的是能源。他給出了一個對比:訓練一個高智商的人類同樣極其耗能。你需要投入 20 年的時間,以及這 20 年裡他吃掉的所有食物;甚至,還需要算上過去數千代人在進化中學會躲避掠食者、發展出科學,你才有了今天的智慧。相比之下,當模型訓練完成後,AI 回答一個問題的能源效率,其實已經趕上了人類。但真正的挑戰在於“規模”。 下一代資料中心的耗電量將是驚人的。模型越來越龐大,使用者急劇增加,每次呼叫都需要海量晶片協同工作。未來的算力命脈,將極度依賴核能、風能、太陽能,甚至需要為 AI 專門建造超級能源站。3、未來的需求到底有多大?Altman 反問了一個問題:“你個人希望有多少個 GPU 隨時待命為你工作?”答案從來沒有低於過 1 個。甚至有人開口就要 1000 個。試想一下,如果全球 80 億人每人都需要 1000 個專屬 GPU,那就是 80 兆個。這個規模,短期內根本做不到。這意味著,算力需求的上限遠超我們當下的想像。當 AI 徹底融入每個人的工作流,呼叫量將是現在的數十百倍,算力會像今天的水和電一樣,成為最底層的社會基礎設施。這也是為什麼 Altman 感嘆:“擴充算力,可能是人類歷史上最複雜的合作工程。”靠傳統的人力去搞基建,絕對完不成這個任務。好消息是,未來的 AI 和機器人會反過來幫我們建造這些設施。4、基建搞到太空裡?現在還太早。當被問及是否有建造“太空資料中心”的極端可能性時,Altman 明確表示:在目前的情況下,這個想法非常荒謬。發射成本、GPU 的太空維修、能源的穩定供應…… 這些問題一個都還沒解決,近十年內,軌道資料中心都不可能大規模落地。如果說第一道題是在講 AI “能做什麼”,那麼第二道題的核心就是:“你能不能用得上”。 在這場競賽裡,率先掌握穩定且龐大算力的組織,就能拿走下一輪效率革命的入場券。第三道題|工作怎麼變:性質在變,不會消失在對話中,主持人問到最敏感的問題:AI 會讓多少人失去工作?Altman 說,過去一年他看到的變化是:工作沒有消失,但做事方式完全不同了。1、知識型崗位受衝擊最明顯過去一年,程式設計師群體感受最明顯。Altman拿自己舉了個例子:“我本人就是學軟體工程出身的,但我當年學程式設計的那套方法,現在已經徹底過時了。手工編寫C++程式碼的時代,已經結束了。”軟體工程師還需要,但工作內容變了。以前寫程式碼是從零開始搭結構、寫邏輯、偵錯;現在,大段的初版程式碼都由AI一鍵生成,人做的是結構調整、細節修正、風險檢查、體驗提升。這個變化不只發生在程式設計領域。影視創作也一樣:字節跳動 2 月發佈的Seedance 2.0,能從幾句文字描述直接生成電影級視訊片段,導演賈樟柯用它創作了短片《賈樟柯的舞蹈》。大多數知識工作都類似:AI 生成初稿,人負責方向、質量和判斷。2、新機會在那裡?每次技術革命都會洗牌,但最終總會湧現更多的新崗位,只不過這次的浪潮來得更快、更猛。Altman 總結了三個正在發生的趨勢:“超級個體”崛起: 過去開發一個產品需要設計、前端、後端、營運齊上陣;現在,一個人配上一套 AI 工具鏈,就能打造一家完整的“一人公司(OPC)”。創作門檻大幅降低: 不僅僅是程式設計,視訊剪輯、產品設計、文案寫作,過去需要長年專業訓練的技能,現在幾天就能上手。企業內部分工在變: 純做財務的人可以利用 AI 搭建流程自動化系統;不懂程式碼的營運也能直接生成實用的內部工具。用 Altman 的一句話概括就是:“AI 讓很多專業技能變簡單了:以前要專門學,現在會用工具就夠。”3、什麼能力變得更重要?與 AI 深度協作的能力: 會提出好問題(Prompt),會審查生成結果,會組合各種 AI 工具。你要把 AI 當作一個需要磨合的長期合夥人。極致的適應力: 技術迭代在瘋狂加速,過去十年的跨度現在一年就能跑完。能不能在劇變中迅速找到自己的新生態位,是生死攸關的能力。對“人”的深刻理解: AI 再強大,也不知道“什麼樣的設計能直擊人心”、“什麼樣的功能最懂人性的軟肋”。這是人類獨有的嗅覺。此外,Altman 強調了“情感連接”的不可替代性。比如圖像生成 AI 剛出來時,很多人哀嘆插畫師完了。對於批次生產的商業設計(比如生日賀卡)確實如此;但在純藝術領域,AI 生成的畫作價格很低,而人類藝術家創作的作品價格依然在漲。因為人們在乎的是作品背後的那個人。同樣,他提到最近去醫院的經歷,他在意的是護士的細心照料與情感安撫。如果換成一個冷冰冰的機器人,再聰明、再精準,他也會感到排斥。有些工作的核心價值,建立在人與人的連接之上。4、教育方式也在調整既然工作性質變了,教育體系就必須隨之徹底重構。Altman 說,AI 不會讓孩子變懶,關鍵是教學方式能不能跟上工具變化。他回憶起自己上學時,Google剛剛問世。中學老師覺得:如果能直接在Google上查,為什麼還要背歷史日期?他的回答是:死記硬背本來就是浪費時間。幾年後,老師們逐漸接受了,教育系統也在演進。新工具帶來的過程都是這樣:能力提升,要求也提升,我們開始教人們更深入地思考、創造更多。如果學生一直被要求“背內容”、“做重複練習”,自然會被 AI 替代。但如果強調思考方式、項目能力、如何用工具解決問題,AI 反而會讓學習更高效。教育的重點,也將會從“會不會”轉向“怎麼用”。未來的每個人競爭力在於誰能更快把 AI 融入日常工作,讓自己從重複勞動中解放出來,把時間用在更高價值的部分。第四道題|社會跟得上嗎:這是最難的前三道題講了能力、算力、工作。最難的題是:社會跟得上嗎?模型訓練速度在加快,能力在跳躍,可能一年就跨越多代。但社會結構的變化,職業體系、企業流程、法律框架、公共認知,不可能同步跟進。Altman 說:能力提升容易,學會怎麼用才難。1、治理的核心:給社會留出適應時間面對外界對 AI 失控的恐慌,Altman 坦言,他最擔心的是大眾對“治理”的誤解。很多人把監管等同於“阻擋技術前進”,卻忽略了監管的真正目的:是幫助社會打好地基,去安全地擁抱這種前所未有的新能力。他給出了破局的三個關鍵點:逐步開放新功能。新功能上線,使用者學習,行業適應,風險暴露,再調整。這就是“迭代部署”的意義:給社會留出適應時間,不是一次性放開。讓更多人用得起最強工具。如果只有少數人用得起,創新、教育、創業都會受限。普惠既降低風險,也擴大機會。真正的風險來自不會用。模型不懂人類價值,但人懂。問題出在不知道怎麼正確使用,不具備判斷能力,用老辦法應對新工具。2、治理靠分散智慧,各國在探索現在,各個國家正在嘗試不同的監管方法。Altman 認為這是好事:接下來幾年,我們會看到很多不同的嘗試,觀察那些有效、那些無效。世界會傾向於更有效的方法。他尤其強調,當 AI 滲透到千行百業,單靠任何一家科技巨頭,都不可能搞懂所有領域的細節風險。Altman 說:“好的辦法是讓各行各業的人都來討論,而不是只靠科技公司制定規則。”各行各業參與能減少風險,但不能消除不確定性。面對這樣強大的技術,Altman 說,最重要的是保持謙遜。我們最好的猜測也可能是錯的,AI 的發展已經帶來了很多意外,未來還會有更多。結語|說透了什麼這場新德里的訪談,Altman 講了四道題:能力到那了:已經能做研究級工作算力夠不夠:遠遠不夠工作怎麼變:性質在變,不會消失社會跟得上嗎:這是最難的他沒給答案,但把每道題的核心矛盾說清楚了。能力在跨越,算力在追趕,工作在重塑,社會在適應。誰能更快把 AI 融入日常工作,誰就能在這輪變化中佔據主動。 (AI深度研究員)
輝達仍是王者!GB200貴一倍卻暴省15倍,AMD輸得徹底
AI推理遊戲規則,正悄然改變。一份最新報告揭示了關鍵轉折:如今決定勝負的,不再是單純的晶片性能或GPU數量,而是 「每一美元能輸出多少智能」。AI推理,現已不只看算力硬指標了!Signal65一份最新報告中,輝達GB200 NVL72是AMD MI350X吞吐量28倍。而且,在高互動場景在,DeepSeek R1每Token成本還能低到15倍。GB200每小時單價大概是貴一倍左右,但這根本不重要。因為機櫃級NVLink互聯+軟體調度能力,徹底改變了成本結構。頂級投資人Ben Pouladian稱,「目前的關鍵不再是算力或GPU數量,而是每一美元能買到多少智能輸出」。如今,輝達仍是王者。其他競爭對手根本做不到這種互動水平,這就是護城河。最關鍵的是,這還沒有整合200億刀買入Groq的推理能力。這裡,再mark下老黃至理名言——The more you buy, the more you save!AI推理重心:一美元輸出多少智能?這篇萬字報告,探索了從稠密模型(Dense)到混合專家模型(MoE)推理背後的一些本質現象。傳統的「稠密模型」架構要求:在生成每個Token時都啟動模型裡的全部參數。這就意味著:模型越大,運行越慢、成本越高,同時還會帶來相應的記憶體需求增長等問題。MoE架構,正是為了釋放更高水平的智能而生——在每個Token上只啟動最相關的「專家」。摟一眼Artificial Analysis排行榜即可發現,全球TOP 10開源LLM,全部都是MoE推理模型。它們會在推理階段額外「加算力」來提高精準性:LLM不會立刻吐出答案,而是先生成中間的推理Token,再輸出,相當於先把請求和解法「想一遍」。前16名裡有12個是MoE模型這些推理Token往往遠多於最終回覆,而且可能完全不會展示出來。能否既快又便宜地生成Token,對推理部署來說就變得至關重要。那麼,MoE方法的主要約束在那裡?一個核心限制在於「通訊瓶頸」。當不同專家分佈在多塊GPU上時,任何GPU之間通訊的延遲,都會讓GPU空閒等待資料。OpenRouter一份近期報告,超50%的Token會被路由到推理模型上這些「空轉時間」(idle time)代表著被浪費的、低效的算力,並且會直接體現在服務提供商的成本底線上。當評估AI基礎設施的「經濟性」時,一般會聚焦在三個方面:性能(吞吐量與互動性)能效(在既定功耗預算下,可生成的Token數)總體擁有成本(通常以Token/每百萬的成本衡量)基於公開可用的基準測試資料,Signal65對不同LLM架構下AI基礎設施方案進行了對比分析。分析中,團隊採用第三方基準測試所提供的性能資料,來估算相對的Token經濟性。具體來說,他們選取了B200、GB200 NVL72,以及AMD MI355X部分結果,用以對比它們在不同模型場景下的真實性能表現及相應的TCO估算。結果顯示,在稠密架構以及較小規模的MoE中,B200性能優於AMD MI355X。當模型擴展到像DeepSeek-R1這樣需跨越單節點的前沿級規模時,GB200 NVL72性能最高可達到MI355X的28倍。在高互動性的推理工作負載中,NVL72的單位Token成本最低,可降至其他方案的約1/15。儘管GB200 NVL72的單GPU小時價格幾乎是這些競爭平台的2倍,但其機架級能力——從NVLink高速互連,到覆蓋72塊GPU的軟體編排——共同推動了這種顯著更優的單位經濟性。價值評估的重心,正在從單純的原始FLOPs,轉向「每一美元所獲得的總體智能」。這一結論非常明確:隨著MoE模型和推理工作負載帶來的複雜性與規模持續上升,行業已無法僅依賴晶片層面的性能提升。能夠在系統層面實現峰值性能的端到端平台設計,已經成為實現低成本、高響應AI服務的關鍵槓桿。「稠密模型」推理,輝達領先Signal65選擇了Llama 3.3 70B作為稠密模型的性能基準,結果如下所示:帕累托曲線清晰顯示出,HGX B200-TRT方案在整個吞吐量與互動性區間內,都具備持續的性能優勢。具體到基線互動性水平,B200的性能大約是MI355X的1.8倍,這為互動式應用部署,以及更高的單GPU並行密度提供了顯著余量。再來看,當互動性提升至110 tokens/sec/user時,這一優勢進一步被放大:B200吞吐量超過MI355X的6倍。整體上,在Llama 3.3 70B測試中,AMD MI355X在單位成本性能方面確實具備一定吸引力。但這種優勢並不能代表更現代的推理技術堆疊,尤其是以MoE架構和高強度推理工作負載建構的系統。MoE推理,輝達領先那麼,在MoE架構上,輝達和AMD表現又如何?中等規模推理:gpt-oss-120BSignal65認為,OpenAI gpt-oss-120B是理解MoE部署特性的一個理想「橋樑案例」。它足夠大,可以把MoE的複雜性暴露出來;但規模又沒有大到離譜,仍然是很多團隊能現實部署並調優的範圍。它處在一個很有用的中間地帶:介於稠密的70B級模型,與市場正在快速轉向的、更前沿的推理型MoE架構之間。在10月下旬資料裡,當目標是100 tokens/sec/user時,B200大約比MI355X快1.4倍;但當目標提高到250 tokens/sec/user時,差距會擴大到約3.5倍,說明越追求「更快的互動」,平台差異越容易被放大。不過,12月上旬的資料則呈現出不同局面。得益於軟體最佳化,兩邊平台的絕對性能都明顯提升:輝達單GPU峰值吞吐從大約7,000 tokens/sec提升到超過14,000;AMD也從約6,000提升到大約8,500。前沿推理:DeepSeek-R1在DeepSeek-R1推理上,測試結果正如開篇所介紹那樣,輝達GB200 NVL72大幅領先。更多資料如下圖所示:基準測試資料展示了一個被重塑的格局:GB200 NVL72讓「超過8塊GPU的張量平行配置」也能進入帕累托前沿,達到單節點平台根本無法匹敵的性能。在25 tokens/sec/user互動性目標下,GB200 NVL72單GPU性能大約是H200的10倍,並且超過MI325X單GPU性能的16倍。這類性能差距,正是能為AI服務提供商帶來「斷崖式」TCO改善的那種差距。當互動性目標提高到60 tokens/sec/user時,GB200 NVL72相比H200帶來了超24倍的代際提升,同時也接近MI355X的11.5倍性能。在同樣25 tokens/sec/user下,GB200 NVL72單GPU性能大約是B200的2倍、是MI355X的5.9倍;而到60 tokens/sec/user時,這些優勢進一步擴大:相對單節點B200達到5.3倍、相對MI355X達到11.5倍。GPU越貴,token成本越低輝達從Hopper過渡到Blackwell,並推出GB200 NVL72時,不僅提升了每GPU算力、記憶體頻寬以及NVLink互連頻寬,還對底層系統架構做了重新設計。從8-GPU風冷HGX伺服器轉向全液冷的機架級系統,並把72塊GPU連接在同一個域內,系統成本和複雜度顯然都上升了。據CoreWeave公佈的目錄價,按單GPU口徑,GB200 NVL72價格大約比H200貴1.7倍。不過,每一代新技術的目標之一,就是壓低「每Token成本」。對推理而言,具體就是:實際交付的Token吞吐提升幅度,要超過底層基礎設施成本的提升幅度。而從公開的性能資料來看,這正是GB200 NVL72相比Hopper所呈現出的結果。Signal65把本次的tokenomics(Token經濟學)分析,錨定在前文建立的DeepSeek-R1性能差距上:在25 tokens/sec/user時,GB200 NVL72單GPU性能大約是H200的10倍;在更高的互動點位上,這個差距會更大(24倍)。下表總結了成本歸一化,以及由此得到的「每美元性能」計算:這些結果一開始可能有點反直覺:更「貴」的GPU反而更省錢——因為它帶來的性能提升遠大於價格差異,使得它能以更低成本生成Token。與AMD相比,輝達系統在推理token成本上的一些資料對比:按單GPU口徑,MI355X價格大約只有GB200 NVL72配置的一半;但由於GB200 NVL72單GPU性能優勢從低端接近6倍,到高互動性時高達28倍不等,輝達仍然能提供最高15倍的每美元性能優勢。換句話說,輝達能實現相對每Token成本僅為競爭對手的1/15。結論前沿AI模型的未來,會是更大、更複雜的MoE。隨著模型更深地走向MoE與推理架構,最終效果將不再只取決於原始GPU性能或記憶體容量。平台級設計會成為決定性因素——包括互連與通訊效率、多節點擴展特性、軟體棧成熟度、生態支援與編排能力,以及在並行與混合負載下維持高利用率的能力。從當前趨勢看,來自OpenAI、Meta、Anthropic等前沿公司的旗艦模型,很可能會繼續沿著MoE與推理方向演進。如果這一軌跡成立,輝達將維持關鍵的性能與經濟性優勢。GoogleTPU這類架構也提供機架級方案,但它們對非自家模型的適用性與性能表現仍不明確。本文記錄的性能差異,能夠直接轉化為可量化的商業結果:在既定互動性閾值下,每部署一塊GPU能服務更多使用者,就能降低每個「有用Token」的生成成本,提高每機架的收入潛力(通過規模化交付更高價值的體驗),最終AI企業和部署AI的企業獲得更好的TCO。一個具體例子足以說明量級:當一個平台在某個互動性目標下,能提供28倍的單GPU吞吐提升時,它可以在不需要線性擴大硬體規模的情況下,解鎖新的產品檔位以及更複雜的功能。這就是AI推理「經濟學」,而它會更偏向那些從底層就為MoE與推理時代而設計的平台。 (新智元)
馬斯克談每年發射100萬噸AI衛星
馬斯克近日在社交平台X上闡述了大規模部署太空AI衛星的構想,計畫每年向太空發射總量達100萬噸的衛星,以實現每年在太空部署100吉瓦人工智慧運算能力的目標。他認為,這些衛星能為超大規模AI應用提供能源。馬斯克指出,搭載本地化AI計算的衛星,其結果將從低延遲的太陽同步軌道傳回,這將是3年內產生AI位元流的成本最低的方式。到目前為止,這也將是未來4年內實現規模擴張的最快路徑。馬斯克解釋稱,“在地球上已經很難找到簡單的電力來源。100萬噸/年的衛星,每顆衛星功率100千瓦,則每年可增加100吉瓦的AI算力,無需營運或維護成本,通過高頻寬雷射連接到星鏈(Starlink)星座。”馬斯克進一步指出,更高級的是在月球上建造衛星工廠,並使用大規模驅動器(電磁軌道炮)在不需要火箭的情況下將人工智慧衛星加速到月球逃逸速度。“這相當於每年100兆瓦特的人工智慧,並使成為卡爾達肖夫II型文明取得重大進展。”馬斯克在另一條帖子中補充道:“一旦月球上有了月球工廠、機器人和大規模驅動器,整個循環就會閉合,這個系統可能會與傳統貨幣脫鉤,並以瓦特和噸位為單位自主運行。”一位網友評論稱:“埃隆·馬斯克正在談論每年將100萬噸用於AI計算的星鏈衛星送入軌道。我們目前每年向軌道發射大約3000噸衛星,其中大部分已經是SpaceX的衛星。100萬噸意味著每天發射25艘以上的星艦飛船!”另一位網友翻出了馬斯克今年8月的一條帖子,“在大約6到7年的時間裡,星艦飛船將實現24小時內發射超過24次。”在11月與特斯拉投資者羅恩·巴倫(Ron Baron)的一次訪談中,馬斯克曾表示,他看到了一條可行的技術路徑,每年將100吉瓦的太陽能驅動的AI衛星送入軌道,並稱這可能是“大規模驅動和運行AI的最低成本方式”。作為參考,美國當前的平均用電負載約為460吉瓦。馬斯克還談到,隨著AI與機器人技術發展,“未來將會實現對人類需求的完全滿足”,所有人都能從中受益。對於未來的目標,他形容自己的願景是採取能夠“擴展意識到未來”的行動,推動人類探索其他星系,“像《星際迷航》那樣前往從未有人到過的地方”,並更深入理解宇宙本質。 (i商周)
中美AI算力中盤博弈:開放與封閉之爭
近日,GoogleTPU攜Gemini3逆襲之勢大幅拓寬增量前景,Meta考慮斥資數十億美元為其買單,機構將TPU產量預期上調67%至500萬塊。基於“晶片-光交換網路-大模型-雲服務”全鏈閉環,Google智算體系重回AI賽道前沿梯隊,標誌著美式封閉壟斷路線更進一步。與此同時,以DeepSeek為代表的開源模型緊追不捨。月初,DeepSeek V3.2及其長思考增強版模型出爐,前者在性能測試中打平ChatGPT,後者直接對標閉源模型頂流Gemini。這也預示著中國開源開放路線漸入佳境,國產智算體系在應用層展現出良好的生態協同潛力。至此,中美AI產業博弈棋至中盤,“開放協同”與“封閉壟斷”對位格局愈發清晰。尤其在智算生態佈局中,兩大陣營或正醞釀著一場體系化能力的巔峰較量。從Gemini 3到TPU v7,軟硬一體閉環臻至極境毋庸置疑,GoogleTPU的突然走紅,很大程度得益於Gemini3的模型能力驗證。作為專為GoogleTensorFlow框架而生的ASIC晶片,TPU憑藉軟硬體一體化設計為其全端閉環完成奠基,同時也在上層應用高位突破時俘獲外部使用者市場,甚至一度被視為輝達GPU的最強平替。所謂“軟硬一體化”,即硬體的設計完全服務於上層的軟體和演算法需求。如Gemini 3訓練和推理過程高度適配TPU叢集,而這種定製化專用模式也在功耗能效方面展現出極高價值——TPU v5e的功耗僅為NVIDIA H100的20%-30%,TPU v7每瓦性能較前代產品翻倍增長。目前,Google通過“晶片+模型+框架+雲服務”的垂直整合,形成了一個封閉且高效的循環。一方面極大地提升了自身AI研發和應用開發效率,另一方面也在NV主流體系下裂土而治,奪得又一智算賽道主導權,Meta對TPU的採購意向則將這一體系熱度推向了高點。業內有觀點指出,從蘋果到Google,美式的垂直封閉玩法幾乎臻至極境,表現出科技巨頭為鞏固和擴張利益版圖,在產業鏈層面泛在的壟斷慾望。但從生態發展角度來看,封閉模式缺乏長期主義精神,極易導致產業長下游喪失創新活性,並形成單一主體高度集權的格局。另外,從TPU的應用場景來看,軟硬一體閉環儼然是專屬於巨頭的遊戲。某分析人士稱,Google的叢集化設計和“軟體黑盒”,需要使用者重新配置一整套異構基礎設施。如果沒有兆參數模型訓練需求,根本填不滿TPU的脈動陣列,省下的電費可能都抵消不了遷移成本。同時,由於TPU技術路線極為封閉,與主流開發環境無法相容,使用者還需要一支專業的工程團隊駕馭其XLA編譯器,重構底層程式碼。也就是說,只有像Google、Meta這種等級的企業才有資格轉向TPU路線,也只有算力規模達到一定程度才能發揮出定製化產物的能效優勢。不可否認,Google等頭部企業通過垂直整合自建閉環,在局部賽道快速實現單點突破,同時也造就了美國科技巨頭林立的蔚然氣象。但在中美AI博弈背景下,美式封閉壟斷路線憑藉先發優勢提前完成了賽道卡位,被動的追隨式趕超已很難滿足中國智算產業的發展需要。“小院高牆”之外,如何充分發揮舉國體制優勢,團結一切力量拆牆修路,成為拉近中美AI體系差距的關鍵。多元異構生態協同,開放路徑通往下一賽點相較於美式寡頭壟斷模式,中國智算產業正基於多元異構體系層層解耦,重塑開放式生態系統。從頂層設計到產業落地,“開源開放+協同創新”已然成為國產軟硬體全端共識。在政策層面,《算力基礎設施高品質發展行動計畫》提出建構佈局合理、泛在連接、靈活高效的算力網際網路,增強異構算力與網路的融合能力,實現多元異構算力跨域調度編排。並且,相關部門多次強調,鼓勵各方主體創新探索智能計算中心建設營運模式和多方協同合作機制。延伸到AI應用層,《關於深入實施“人工智慧+”行動的意見》同樣要求深化人工智慧領域高水平開放,推動技術開源可及......不難看出,國家在人工智慧和智算領域給出了截然不同的中國方案——不在封閉路線中盲目追趕封閉,要在開放格局下謀求錯位趕超。事實上,頂層設計完全基於產業現實需要。在美方科技封鎖下,中國智算產業主要面臨兩大挑戰:單卡算力性能瓶頸、算力成本高。除了在晶片、模型、基礎軟體等核心技術領域持續攻堅外,當前更有效的途徑是發展更大規模、更多元高效的智算叢集,突破AI算力瓶頸。業內調研結果顯示,國內宣佈擁有千卡規模的算力叢集不少於100個,但其中大部分是異構晶片。可以想像,假如不同硬體系統相互封閉,標準介面不統一,軟體棧互不相容,將導致難以實現智算資源的有效整合利用,更無法滿足大規模參數模型的應用需求。根據行業主流觀點,國產AI算力存在多元化、碎片化特徵,同時又具備相當的規模化優勢。當務之急並不是各自埋頭推進單一技術路線,更首要的是盡快打通“技術牆”、“生態牆”,實現產業鏈開放跨層協作,真正釋放總體算力生態潛能,從單點突破邁向整合創新。具體來看,所謂開放路線旨在基於開放的計算架構推動產業生態協同創新。比如通過制定統一的介面規範,聯動晶片、計算系統、大模型等產業鏈上下游企業共同參與生態建設,減少重複性研發和適配投入,共享技術攻關和協同創新效益。同時,隨著開放架構中的協作標準趨於統一,可以進一步打造出商品化的軟硬體技術,用以代替定製化、專有化的系統,進而降低計算產品應用成本,實現覆蓋產業全端的算力普惠。顯然,在中國式開放體系下,國產AI算力正打破GoogleTPU的泛化普及困境,將智算生態系統與各方開發者使用者廣泛連結,最終形成體系化協同戰力,更靈活高效賦能人工智慧+落地。屆時,中美AI博弈也將走出單卡競爭和單一模型比拚,全面迎來生態體系能力的終極對壘。 (伯虎財經)
Google VS OpenAI!兆生命科學賽道,上演AI終極一戰
當GPT系列和Gemini在AI大模型打得有來有回時,Google和OpenAI也在生命科學開展了新一輪競逐。OpenAI和Google都將生命科學視為AI技術落地的重要領域,但兩者的戰略有顯著差異。OpenAI更偏向於通過建構通用的、超強的基礎模型能力,並通過廣泛的合作,賦能生命科學研究和醫療保健。Google則以底層科學突破為切口,將其AI能力深度嵌入到生命科學研發的每一個具體環節,並且推出了一系列生命科學模型。一個是老牌網際網路大廠,在醫療健康賽道佈局多年,底蘊深厚;一個是AI新貴,對生命科學重金投入,虎視眈眈。但毫無疑問,兩家AI巨頭都在豪賭一個未來:AI將從根本上重塑生命科學的研發範式,這其中蘊藏著兆等級的商業價值。01 Google:聚焦底層科學突破,實現生態閉環作為頂級網際網路大廠,Google已經數次對生命科學發起了衝鋒。然而,Google的探索也並非一帆風順。此前通過Calico、Verily等子公司進入醫療健康領域,但沒有做出什麼成果,甚至組建過Google Health試圖整合但最終失敗,公司無奈關停。但如今Google有個重要的殺手鐧:建構基礎模型能力。尤其,Google旗下DeepMind發佈的AlphaFold2破解了生物學的基本難題——蛋白質結構預測,已經榮獲2024年諾貝爾化學獎。以此為里程碑,Google的戰略聚焦於將AI能力用於底層科學突破,近兩年來,Google在生命科學已發佈了多個模型。模型帶來的底層技術能力的突破,正在讓Google實現其更大的醫療野心,根據AlphaFold2成果已經轉化出Isomorphic Labs,並獲得了高達6億美元的融資。Isomorphic Labs正在用AI建立一個通用的藥物設計引擎,不僅能用於單一靶點或單一藥物類型,更能反覆應用於任何不同的疾病領域。此外,Google還以雲業務為切口,成為醫療健康行業的數位化底座和AI創新平台。Google雲通過提供一系列專門為行業需求打造的解決方案,將DeepMind等部門的基礎科研突破,轉化為藥企、醫院和研究人員即開即用的生產力工具。當前,Google雲已經整合了多個藥物研髮套件,以及前沿基礎模型,系統地賦能醫療健康產業的AI以及數位化轉型。另一邊,Google還有不容忽視的投資部門——GV(Google Ventures)。生命科學與健康是GV核心的投資賽道之一。當前,GV已經過投資上百家生物技術公司,GV幫助Google在藥物發現、疾病治療、醫療資料等多個關鍵環節建立了廣泛的生態佈局。在AI生命科學領域,GV已經投下了OpenEvidence(AI+醫生搜尋引擎)、insitro(AI藥物研發)、Isomorphic Labs(AI藥物研發)、晶泰科技(AI賦能科學平台)等公司。如今,Google在生命科學領域的戰略重心日益清晰:即Google DeepMind以及其他研究團隊主攻基礎科研,產生顛覆性成果;通過Google雲整合模型以及行業解決方案,建構以自身技術為核心的行業生態,打造行業基礎設施;通過GV廣泛投資生命科學企業,為Google建構龐大的創新網路,並通過戰略協同推動行業變革。02 OpenAI:連結多方,持續重資產投入早在ChatGPT剛出世之時,OpenAI的模型就被各大初創公司和平台進行微調,提供各類醫療服務。但如今,OpenAI不再僅僅滿足於做一個工具提供者,而是立志成為利用AI推動下一次生物技術革命的核心參與者。它不只研發,還通過投資、合作等方式,將AI技術滲透到藥物研發、生物安全、再生醫學等多個細分領域,建構一個廣泛的技術應用生態。而言,OpenAI在生命科學的佈局,正在經歷越來越“重資產”投入的過程:第一階段:作為技術服務商,為行業提供基礎模型服務第二階段:廣泛進行業內合作,投資了多家AI+醫療保健前沿公司第三階段:開始直接招募高管、組建團隊,開發自有醫療和科研產品如今,OpenAI近年來在生命科學領域積極佈局,與多家機建構立了重要合作關係,涵蓋包含藥企、患者管理、臨床輔助、監管等多方重要企業,深入連結了產業鏈的上下游。從上圖多筆合作可以建安初,OpenAI更偏向提供企業級AI工具,使得生命科學公司的效率大幅度提升,從而降低開發成本,提升患者體驗。在大模型方面,OpenAI不僅提供通用模型,還會為特定的生命科學問題開發定製化的AI工具。OpenAI聯合Retro Biosciences打造了生物學大模型GPT-4b micr,並成功設計出了山中因子的蛋白質變體,使得重程式設計效率提升50倍。此外,OpenAI還發佈開源醫療基準測試平台 HealthBench,旨在評估醫療AI應用的安全性與精準性,搶佔行業標準制定的話語權。投融資方面,OpenAI及其CEO山姆·奧爾特曼(Sam Altman)在生命科學領域的投融資活動相當活躍,主要聚焦於AI製藥和長壽科學等前沿方向,投下了包括Retro Biosciences、1910 Genetics、Chai Discovery、Valthos等公司。未來,OpenAI更是提供了一個宏大的暢想:目標是到2028年開發出真正的自動化AI研究員,實現重大科學發現。如今公司內部成立"OpenAI for Science"部門,組建頂尖學者團隊,其戰略核心是打造下一代科學發現平台,加速科學研究。甚至,OpenAI基金會在起步階段承諾投入250億美元,用於醫療健康以及“人工智慧韌性”。寫到最後簡單來說,Google和OpenAI都在生命科學進行了全方位的、系統性的押注。兩家公司都希望通過建構AI基礎平台,在這個傳統且低效的生命科學領域,找到巨大的商業機會。Google以其深厚的科研積澱和生態系統,建構了一個從底層科學突破到行業基礎設施的完整閉環。而OpenAI則以通用大模型為基石,通過廣泛的合作與深入的價值鏈滲透,展現出更強的靈活性和擴張野心。而在AI for Science的技術趨勢下,Google與OpenAI的這場豪賭,或許將是整個人類的未來。 (智藥局)
李飛飛最新長文火爆矽谷
空間智能,是AI的下一個前沿。剛剛,AI教母李飛飛發表長文,首次系統性地解釋了什麼空間智能、為什麼重要以及如何建構能夠解鎖它的世界模型。文章裡,李飛飛不僅提出了“真正具有空間智能的世界模型”必須具備的三個核心能力:生成(Generative):能創造遵守物理定律、空間一致的世界;多模態(Multimodal):能處理從圖像、視訊到動作的多模態輸入;互動(Interactive):能預測世界隨時間演變或互動的狀態。而且,還分享了World Labs在新一代任務函數、資料、模型架構與學習表示上面的進展,以及世界模型在創造力、機器人,甚至科學、醫療和教育等領域的潛力。一經發出,點贊者眾,瘋傳者廣,都成熱文熱搜趨勢了——將空間智能融入世界模型(LWMs)有望推動大語言模型(LLMs)實現下一次質的飛躍。一旦因果推理能力和能效達到相應水平,我們就將站在通往通用人工智慧的拐點上。好了,不多說了。接下來,我們一起看看李飛飛這篇從文字到世界(from words to worlds)的宣言吧。以下是全文:從文字到世界:空間智能是AI的下一個前沿1950年,當電腦還只是自動化算術和簡單邏輯時,艾倫·圖靈提出了一個至今仍迴蕩的問題:機器能思考嗎?他能看到別人尚未看到的未來,需要非凡的想像力——那就是:智能或許有一天可以被“建構”,而非“誕生”。這一洞見催生了一場持續至今的科學征程——人工智慧(AI)。在我投身AI研究的25年中,圖靈的願景依然不斷啟發著我。但我們距離那一願景有多近?答案並不簡單。今天,以大語言模型(LLM)為代表的前沿AI技術,已經開始改變人類獲取與處理抽象知識的方式。 然而,它們仍然是“黑暗中的文字匠”:能言善辯,卻無經驗;知識豐富,卻缺乏根基。空間智能(spatial intelligence)將改變我們創造和互動現實與虛擬世界的方式——徹底革新敘事、創造力、機器人學、科學發現,以及更多領域。這,正是AI的下一個前沿。自我進入這一領域以來,對視覺與空間智能的探索就一直是我的“北極星”。這也是我為何花費多年時間建構了 ImageNet——首個大規模視覺學習與評測資料集。它與神經網路演算法、現代算力(如GPU)一道,成為孕育現代AI的三大關鍵要素。也是為何我的史丹佛實驗室在過去十年中,將電腦視覺與機器人學習相結合。同樣,這也是我與聯合創始人Justin Johnson、Christoph Lassner、Ben Mildenhall一年前共同建立 World Labs的原因:為了第一次真正實現這一可能性。在這篇文章中,我將解釋什麼是空間智能、為什麼它重要、以及我們如何建構能夠解鎖它的“世界模型(world models)”——這種技術將深刻重塑創造力、具身智能與人類進步。空間智能:人類認知的腳手架AI從未像今天這樣令人振奮。以生成式AI為代表的模型,如LLM,已從研究室走向日常生活,成為數十億人創作、生產與交流的工具。它們展示了曾被認為不可能的能力:生成連貫的文字、成山的程式碼、逼真的圖像,甚至短影片。 AI是否會改變世界?——從任何合理的定義來看,它已經做到了。然而,仍有大量潛能未被觸及。自動化機器人的願景依然誘人卻遙遠;在疾病治療、新材料發現、粒子物理等領域的研究加速夢仍未實現;真正能夠理解並賦能人類創作者的AI,無論是學習複雜分子化學概念的學生、構想空間的建築師、建構世界的電影人,還是任何希望沉浸於虛擬體驗中的人都仍未到來。要理解為何這些能力依舊難以實現,我們需要回溯:空間智能是如何演化的?它又如何塑造了我們理解世界的方式?視覺長期以來是人類智能的基石,但它的力量源自更為根本的東西。早在動物能築巢、撫育後代、用語言交流或建立文明之前,那看似簡單的“感知行為”:感受到一縷光、觸到一種質感就已經悄然點燃了通向智能的進化旅程。這種從外部世界汲取資訊的能力,在感知與生存之間搭建起一座橋樑,而這一橋樑在漫長的進化中變得愈發複雜。神經元層層疊加,形成能解釋世界、協調生物與環境互動的神經系統。因此,許多科學家認為,“感知—行動”循環成為了智能進化的核心機制,也是自然孕育出我們這個物種的根基——一個能感知、學習、思考與行動的終極存在。空間智能在我們與物理世界的互動中扮演著基礎性的角色。每天,我們都在依賴它完成最平常的動作。停車時想像車尾與路緣的距離;接住被拋來的鑰匙;在人群中穿行而不碰撞;半睡半醒間精準地將咖啡倒進杯中。在極端情況下,消防員穿行於坍塌建築與濃煙之中,瞬間判斷穩定性與生死抉擇,通過肢體語言和本能默契溝通——這些都無可言傳。而嬰兒則在學會語言前的漫長時光裡,通過玩耍與環境互動來認識世界。這一切都在直覺中、自然而然地發生——一種機器至今未能獲得的流暢能力。空間智能同樣是我們想像力與創造力的基石。講故事的人在腦中建構出豐富的世界,並用各種視覺媒介將之傳達給他人。從原始洞穴壁畫,到現代電影,再到沉浸式電子遊戲。無論是孩子在沙灘上築城堡,還是在電腦上玩《我的世界》,這種以空間為根基的想像構成了人與虛擬世界互動體驗的基礎。而在工業應用中,對物體、場景與動態互動環境的模擬則支撐著從工業設計、數字孿生到機器人訓練等無數關鍵場景。歷史上那些塑造文明的關鍵時刻中,空間智能往往扮演著核心角色。在古希臘,埃拉托色尼(Eratosthenes)通過對陰影的幾何化思考完成了驚人的壯舉——他在亞歷山大測得太陽影子形成的7度角,並與賽恩(Syene)“正午無影”的現象進行對比,從而計算出了地球的周長。哈格里夫斯(Hargreaves)發明的“珍妮紡紗機”同樣源於空間洞察:他意識到只需將多個紡錘並列安裝在一個機架上,一個工人就能同時紡出多股線,生產效率因此提高了八倍。沃森(Watson)與克里克(Crick)揭示DNA結構的突破,也依賴於他們親手搭建的三維分子模型——他們用金屬板與鐵絲不斷調整、拼接,直到鹼基對的空間排布完美契合。在這些案例中,空間智能都推動了文明的進步——當科學家與發明家需要操縱物體、想像結構、在物理空間中推理時,這些能力是純文字永遠無法承載的。空間智能(Spatial Intelligence)是支撐人類認知的腳手架。無論是被動觀察,還是主動創造,它都在默默發揮作用。它驅動我們的推理與規劃,即便是在最抽象的主題上。它同樣塑造了我們與世界互動的方式——無論是語言交流,還是身體行動,無論是與他人,還是與環境本身。雖然我們大多數人並不會每天像埃拉托色尼那樣發現新的真理,但我們幾乎時時刻刻都以同樣的方式在思考通過感官去理解這個複雜世界,並依託對物理與空間規律的直覺認知,使其變得可理解。遺憾的是,當今的AI還無法以這樣的方式思考。過去幾年確實取得了巨大進步。多模態大語言模型(MLLMs),在文字之外又引入了大量多媒體資料進行訓練,初步具備了空間感知能力:它們可以分析圖像、回答與之相關的問題,甚至生成超寫實的圖像與短影片。與此同時,借助感測器與觸覺技術的突破,最先進的機器人已經能在嚴格受限的環境中開始操控物體與工具。然而,坦率地說,AI的空間能力依然遠未接近人類水平。其侷限也顯而易見:最先進的MLLM在估計距離、方向、大小等任務上,表現往往不比隨機猜測好多少;它們無法“心智旋轉”物體——即從新角度再現同一對象的形狀;不會在迷宮中導航、識別捷徑,或預測基本的物理規律;生成的視訊雖然新奇炫目,卻常在幾秒鐘後失去連貫性。如今的頂級AI擅長閱讀、寫作、檢索與模式識別,但當涉及對物理世界的表徵或互動時,卻存在根本性侷限。我們人類理解世界的方式是整體性的:不僅僅看到“眼前的東西”,還理解它們在空間上的關係、在語義上的意義、以及在現實中的重要性。而這種通過想像、推理、創造與互動來理解世界的能力,正是空間智能的力量。缺乏它,AI就與它所試圖理解的物理現實脫節。它將無法真正安全地駕駛汽車、無法在家庭與醫院中引導機器人、無法創造全新的沉浸式學習與娛樂體驗、也無法加速材料科學與醫學的發現。哲學家維特根斯坦曾寫道:“語言的邊界就是我世界的邊界”。我不是哲學家,但我知道,對AI而言,世界不止於語言。空間智能代表著超越語言的前沿。它連接想像、感知與行動,為機器真正提升人類生活打開了新的可能:從醫療到創造力,從科學發現到日常輔助。AI的下一個十年:建構真正具備空間智能的機器那麼,我們該如何打造擁有空間智能的AI?如何讓模型具備:像埃拉托色尼那樣的空間推理能力,像工業設計師那樣的工程精度,像講故事的人那樣的創造性想像力,以及像應急救援人員那樣與環境流暢互動的能力?要實現這樣的AI,我們需要比LLM更具雄心的體系:世界模型(World Models)。這是一種全新的生成式模型,其在理解、推理、生成與互動方面的能力,將超越當今LLM所能觸及的極限。它能夠在語義、物理、幾何與動態層面上,理解並生成複雜的虛擬或真實世界。這一領域尚處於萌芽階段,現有方法從抽象推理模型到視訊生成系統不等。World Labs成立於2024年初,正是基於這樣一種信念:基礎性方法仍在形成之中,而這將成為未來十年人工智慧的決定性挑戰。在這個新興領域中,最重要的是確立指導發展方向的核心原則。對於空間智能而言,我將“世界模型”定義為具備以下三項核心能力的系統:1、生成性(Generative):世界模型能夠生成具有感知、幾何與物理一致性的世界要實現空間理解與推理,世界模型必須能夠生成自身的模擬世界。它應能在語義或感知指令的引導下,生成無限多樣、變化豐富的虛擬世界,同時保持幾何、物理與動態上的一致性,無論這些世界是現實的還是虛擬的。研究界目前正在探索,這些世界應當以隱式(implicit)還是顯式(explicit)的幾何結構形式表示。除了強大的潛在表徵(latent representations)之外,我認為通用世界模型的輸出還應當允許生成顯式、可觀測的世界狀態,以便適應不同的應用場景。尤其重要的是,模型對當下世界的理解必須與其過去的狀態保持連貫一致——理解當前,就是理解它是如何演化而來的。2、多模態(Multimodal):世界模型在設計上就是多模態的正如人類與動物一樣,世界模型應能處理多種形式的輸入。在生成式AI領域中,這些輸入被稱為“提示詞(prompts)”。面對不完整的資訊——無論是圖像、視訊、深度圖、文字指令、手勢還是動作,世界模型都應能預測或生成儘可能完整的世界狀態。這要求模型既要以真實視覺的精度處理圖像輸入,又能以同樣的靈活性理解語義性指令。如此一來,無論是智能體還是人類,都能通過多樣的輸入形式與模型就“世界”進行交流, 並以多樣的方式接收輸出。3、互動性(Interactive):世界模型能根據輸入動作輸出下一個狀態最後,當動作(actions)和/或目標(goals)作為輸入提示的一部分時,世界模型的輸出必須包含世界的下一個狀態。這一狀態可以是隱式的,也可以是顯式的。當輸入僅包含一個動作(有無目標皆可)時,世界模型應能生成與世界先前狀態、預期目標狀態(如有)、以及其語義意義、物理規律、動態行為相一致的輸出。隨著空間智能世界模型在推理與生成能力上不斷增強,我們可以想像,未來模型不僅能預測世界的下一個狀態,還將能夠基於該狀態預測下一步行動。這一挑戰的規模,超越了AI以往所面臨的一切。語言是人類認知中純粹生成的現象,而“世界”遵循的規則則複雜得多。在地球上,例如:重力決定運動,原子結構決定光的顏色與亮度,無數物理定律約束著一切互動。即使是最奇幻、最具創造性的世界,也由遵守物理與動態規律的空間對象與智能體構成。要在模型中一致地協調這些——語義、幾何、動力學與物理層面——需要全新的方法論。因為“世界”的維度遠比語言這種一維的序列訊號複雜得多。要實現像人類一樣具備普適空間智能的世界模型,必須跨越若干巨大的技術壁壘。在World Labs,我們的研究團隊正致力於這一目標的基礎性突破。以下是我們當前研究的幾個方向示例:一種新的通用訓練任務函數:在世界模型研究中,一個長期目標是定義一種像LLM中“下一個token預測”一樣簡潔優雅的通用任務函數。然而,世界模型輸入與輸出空間的複雜性使這一函數的設計更加困難。儘管仍有大量探索空間,但這一目標函數及其對應表徵必須符合幾何與物理規律,忠實體現世界模型在想像與現實之間的“落地表徵”本質。大規模訓練資料:訓練世界模型所需的資料遠比文字複雜。好消息是我們已經擁有了龐大的資料資源。網際網路上規模宏大的圖像與視訊集合為訓練提供了豐富的素材。挑戰在於:如何讓演算法從二維圖像或視訊幀(RGB)中提取更深層次的空間資訊。過去十年的研究揭示了語言模型中資料量與模型規模的scaling law;對於世界模型,關鍵在於建構能夠在相似規模上有效利用視覺資料的架構。此外,高品質的合成資料以及額外模態(如深度、觸覺)的作用不可低估,它們在訓練過程的關鍵階段起到補充作用。未來的發展取決於更先進的感測系統、更穩健的訊號提取演算法、以及更強大的神經模擬方法。新的模型架構與表徵學習:世界模型研究將不可避免地推動模型架構與學習演算法的革新,特別是超越當下的多模態LLM與視訊擴散模型(video diffusion)。這些模型通常將資料編碼為一維或二維序列,使得簡單的空間任務,例如在短影片中數清不同的椅子,或記住一小時前房間的樣子變得異常困難。新的架構思路或許能改進這一點,例如具備3D或4D感知能力的token化、上下文與記憶機制。例如,在World Labs,我們最近開發了一種基於幀的即時生成模型——RTFM(Real-Time Generative Frame-based Model)。它以空間為基礎的幀(spatially-grounded frames)作為空間記憶形式,實現了高效即時生成的同時,保持了生成世界的持續性與一致性。顯然,在完全釋放空間智能的潛力之前,我們仍面臨艱巨的挑戰。但這項研究不僅僅是理論工作,它正成為新一代創造性與生產力工具的核心引擎。在World Labs的進展令人鼓舞。我們最近向部分使用者展示了Marble的早期版本——全球首個可通過多模態輸入生成並保持一致性3D環境的世界模型,讓使用者與創作者能夠探索、互動並在其中繼續建構他們的創意世界。我們正全力以赴,努力盡快將其向公眾開放。Marble只是我們的第一步。隨著研究的加速,科研人員、工程師、使用者與商業領袖們都開始意識到這一方向的巨大潛能。下一代世界模型將使機器在空間智能上達到全新的層次,這將開啟AI迄今仍普遍缺乏的核心能力,並真正讓人工智慧進入理解與創造世界的時代。用世界模型為人類建構更美好的世界人工智慧的發展動機至關重要。作為推動現代AI時代到來的科學家之一,我的動機始終十分明確:AI應當增強人類的能力,而非取而代之。多年來,我一直致力於讓AI的開發、部署與治理與人類需求保持一致。當下關於“技術烏托邦”與“世界末日”的極端敘事比比皆是,但我依然持一種更務實的立場:AI是由人開發、被人使用、並由人治理的。它必須始終尊重人的自主性與尊嚴。它的“魔力”在於拓展我們的能力,讓我們變得更具創造力、更緊密相連、更高效並更有成就感。空間智能正體現了這一願景——一種能賦能人類創造者、照護者、科學家與夢想家的AI,使他們實現曾經不可能的目標。這一信念,正是我將空間智能視為AI下一個偉大前沿領域的根本原因。空間智能的應用橫跨不同的時間尺度。創作工具正在當下出現——World Labs的 Marble 已經讓創作者與講故事的人能夠親手掌握這種能力。機器人領域則代表著中期的雄心目標,我們正致力於完善感知與行動之間的閉環。而最具變革意義的科學應用可能需要更長時間,但它們將深刻地促進人類的福祉。在所有時間線中,有幾個領域的潛力尤其突出,足以重塑人類的能力。要實現這些潛力,需要集體努力遠超任何一個團隊或公司的能力範圍。它需要整個AI生態系統的參與:研究者、創新者、創業者、企業家,乃至政策制定者,共同朝著一個願景努力。而這個願景,值得我們追求。以下是未來的圖景:創造力:為敘事與沉浸體驗注入超能力“創意,是智慧的樂趣。”這是我最喜歡的愛因斯坦名言之一。在人類發明文字之前,我們就會講故事——把故事畫在洞穴壁上,代代相傳,並以共享的敘事建立文化。故事是人類理解世界、跨越時空連接彼此、探索“人之為人”的方式,也是我們在生活與愛中尋找意義的途徑。今天,空間智能有潛力徹底變革我們創作與體驗敘事的方式,從娛樂到教育,從設計到建造,賦予它們更深遠的影響力。World Labs的Marble平台 將前所未有的空間表達能力與編輯控制權交到電影人、遊戲設計師、建築師及各類講述者手中,讓他們無需傳統3D設計軟體的繁複流程,就能快速創造、迭代、探索完整的三維世界。創造的行為依然是人類的核心活動——AI只是放大並加速創意實現的過程。這包括:多維敘事體驗:電影人和遊戲設計師可以利用 Marble 建構整個世界,不受預算或地理限制,探索傳統製作流程中無法實現的場景與視角。隨著媒介與娛樂的界限模糊化,我們正接近一種全新的互動體驗形態——融合藝術、模擬與遊戲的個性化世界,讓任何人(而不僅僅是大型工作室)都能創造並進入自己的故事。以設計講述空間故事:幾乎所有被製造的物品或建造的空間,都必須在物理實現之前經過虛擬3D設計——這一過程往往耗費大量時間與成本。借助空間智能模型,建築師可以在數分鐘內可視化並漫遊尚不存在的建築;工業或時裝設計師可以即時將想像轉化為形態,探索物體與人體及空間的互動。全新的沉浸與互動體驗:人類體驗的最深層方式之一,就是創造意義的體驗本身。在整個人類歷史上,我們只共享一個三維世界:物理世界。直到近幾十年,通過遊戲與早期虛擬現實(VR),我們才得以初步窺見“自造世界”的可能。如今,空間智能結合VR、XR(擴展現實)頭顯與沉浸式顯示裝置,將這種體驗提升到前所未有的高度。未來,人們“走進”多維世界將如同打開一本書般自然。空間智能讓造世界的權力從專業團隊擴展到每一位擁有願景的創作者、教育者與普通人。機器人:具身智能的實踐從昆蟲到人類,動物都依賴空間智能來理解、導航並與世界互動。機器人也不會例外。自該領域誕生以來,“具備空間感知的機器”就是人類的夢想,包括我在史丹佛研究實驗室與學生、合作者共同進行的研究。正因如此,我對用 World Labs 建構的模型實現這一願景感到異常興奮。通過世界模型擴展機器人學習:機器人的學習進步取決於可擴展的訓練資料方案。要讓機器人具備理解、推理、規劃與互動的能力,它們需要覆蓋極為龐大的狀態空間。許多研究者認為,網際網路資料、合成模擬資料與人類演示的真實採集三者結合,是實現可泛化機器人的關鍵。然而,與語言模型不同,如今機器人的訓練資料極為稀缺。世界模型將在此發揮決定性作用。 隨著其感知精度與計算效率的提高,世界模型生成的輸出將迅速縮小模擬與現實之間的差距,從而讓機器人能在數不清的狀態、互動與環境中學習。人機協作夥伴:無論是實驗室中協助科學家的研究助理機器人,還是陪伴獨居老人的家用助理,機器人都可以擴展勞動力並提升社會生產力。但要做到這一點,機器人必須具備空間智能——能感知、推理、規劃、行動,並且最重要的是:保持對人類目標與行為的同理一致。例如,實驗室機器人可以替代科學家完成儀器操作,讓人專注於需要推理的部分;家庭助理機器人則可以幫助老人做飯,而不剝奪他們的樂趣與自主性。真正具備空間智能的世界模型能夠預測下一個狀態,甚至推斷與之匹配的下一步行動,是實現這一願景的關鍵。擴展的具身形態:人形機器人只是我們為自身世界打造的一個形式。真正的創新紅利將來自更加多樣的設計:輸送藥物的奈米機器人、穿行狹窄空間的軟體機器人、以及為深海或外太空而造的機器。無論形態如何,未來的空間智能模型都必須將環境與機器人自身的感知、運動一體化建模。但開發這些機器人面臨的關鍵挑戰在於:缺乏多樣化形態的訓練資料。世界模型將在這一過程中發揮關鍵作用——為模擬資料、訓練環境與評測任務提供支援。更長遠的地平線:科學、醫療與教育除了創造性與機器人應用外,“空間智能”的深遠影響還將延伸至更多能夠增強人類能力、拯救生命、加速發現的領域。以下我將重點介紹三個具有深刻變革潛力的方向。當然,空間智能的應用遠不止於此,它的影響範圍幾乎遍及所有行業。在科學研究中,具備空間智能的系統可以模擬實驗、平行驗證假設,並探索人類無法親臨的環境——從深海到遙遠的行星。這項技術有望徹底變革氣候科學、材料研究等領域的計算建模方式。通過將多維度模擬與真實世界資料採集相結合,這些工具能顯著降低計算壁壘,拓展每一個實驗室可觀察與理解的邊界。在醫療領域,空間智能將重塑從實驗室到病床的全過程。在史丹佛,我與學生及合作者多年來一直與醫院、養老機構以及居家患者合作。這些經驗讓我深信空間智能在醫療領域的變革潛力。AI可以通過多維建模加速藥物研發,通過輔助放射科醫生識別影像中的模式來提升診斷質量;它還可支援環境感知式監護系統,在不取代人類關懷的前提下,為患者與護理人員提供持續支援。更不用說機器人在不同場景中幫助醫護人員和患者的巨大潛力。在教育領域,空間智能能夠實現沉浸式學習,讓抽象或複雜的概念變得可感知,並創造出符合人類大腦與身體學習方式的迭代體驗。在AI時代,更快速、更高效的學習與技能重塑對於兒童與成人都至關重要。學生可以以多維方式探索細胞機器或“親歷”歷史事件;教師可借助互動環境進行個性化教學;而外科醫生、工程師等專業人士則能在高度逼真的模擬環境中安全地練習複雜技能。跨越這些領域,可能性是無限的,但目標始終如一:讓AI成為增強人類專長、加速人類發現、放大人類關懷的力量——而不是取代那份屬於人的判斷力、創造力與共情力。結語過去十年間,人工智慧已成為全球現象,在科技、經濟乃至地緣政治層面都帶來了轉折。然而,作為一名研究者、教育者和創業者,最令我振奮的仍是圖靈七十五年前那道問題背後的精神。我依然與他共享那份好奇與驚嘆——正是這份好奇,讓我每天都為探索空間智能的挑戰而充滿動力。人類歷史上第一次,我們正站在這樣一個時刻:有望建構出與物理世界高度契合的機器,讓它們成為我們應對重大挑戰的真正夥伴。無論是加速疾病研究、革新故事敘述方式,還是在病痛、受傷或衰老的脆弱時刻給予支援,我們都正處於一場技術變革的門檻上,它將提升我們最珍視的生命價值。這是一個關於更深刻、更豐富、更有力量的生活的願景。距自然在原始動物中首次顯現空間智能的曙光已近五億年,而我們有幸成為這一代技術創造者——可能即將賦予機器同樣能力的人類,也有幸能將此能力用於全人類的福祉。若沒有空間智能,我們關於“真正智慧型手機器”的夢想將永遠不完整。這場探索,是我的“北極星”。邀請你一同追尋它。 (量子位)
全球化敘事失效,AI重塑一切,企業家如何借助“融生”逆勢突圍?
我們正處在一個前所未有的複雜時刻。從政治到經濟,一系列問題盤根錯節,相互交織。人工智慧的底層邏輯尚未完全理解,地緣政治格局就已突然發生劇變;舊的全球合作體系出現裂痕,新的技術標準與貿易規則正在激烈博弈中形成。不可否認的是,那個“找到風口,豬也能飛”的時代,已經徹底結束了。過去幾十年,企業家們習慣於尋找增長賽道、抓住市場紅利的“取勢”思維,而這種模式需要建立在相對穩定的環境和可預測的技術發展基礎上。但今天的情況完全不同。全球化格局正在深度調整,技術迭代呈指數級增長。當我們還在研究某個商業模式時,技術底層可能已經革新;當我們剛適應某個市場規則時,外部環境可能已經改變。01 從“取勢”到“謀勢”,從“破局”到“融生”面對這樣的局面,我們需要一條新的路徑:謀勢、破局、融生。首先是謀勢,這不是追逐風口,而是看清風從那裡來,往何處去。從AI技術的物種級躍升,到全球權力的重構,再到文明規則的悄然改寫,一切驅動這個時代變革的深層力量,我們都要深刻洞察。其次是破局,即打破固有的認知枷鎖。正如“第一性原理”所啟示的,必須停止“別人做什麼我跟什麼”的內卷,回歸事物的本質去思考:這件事本來應該怎麼做?而當我們看清大勢、打破思維定式後,最關鍵的一步就出現了:融生。02 融生:在交匯處創造新可能所謂“融生”,不是跨學科的簡單交叉,而是讓科技、人文、政治、歷史等不同領域的知識與邏輯,在認知底層發生“化學反應”,進而孕育出一個全新的生命體——“戰略型企業家”,以及他們所創造的“新物種企業”。此前,我們學習行業標竿,往往是停留在模仿他們的方法上。而“融生”,則要求我們像他們一樣,融合多學科智慧,從第一性原理出發,“生長”出一套解決根本問題的全新系統。比如,“利用AI來最佳化我的客服中心”,這就是舊有的思維。與之不同的是“融生”思維,它會促使你思考,能不能打造一個從誕生起,就能重新建構與使用者的關係、最佳化服務成本模型,並形成資料價值閉環的AI原生“客戶互動新物種”呢?實現這種轉變的要求便是打破學科的壁壘。要知道,真正的創新,往往發生在商業、科技、人文、政治的交叉點上。因此,一個能夠理解技術邏輯、把握政策走向、同時具備歷史視野的企業家,才可能在這個複雜時代找到真正的破局點。03 成為“系統級”的創新者實現“融生”,還意味著企業家需要完成一次重要的角色升級,從“解題高手”變為“系統架構師”。具體怎麼做呢?第一,建立融通的知識體系:理解技術發展的底層邏輯,把握全球格局的變化脈絡,同時保持對人文價值的深刻認知。第二,培養系統的思維能力:不再只看單點效率,而是去思考如何建構一個有生命力的商業生態系統。第三,提升戰略定力:在複雜多變的環境中,保持對長期價值的堅持,同時具備靈活調整的智慧。這樣的升級並不容易。它要求我們跳出熟悉的思維舒適區,重新建構認知框架。也正是認識到這種升級的必要性,香港科技大學與香港全球化中心共同推出了融學科戰略型企業家項目(TSEP)。該項目的特別之處在於,它提出了四重境界:謀勢—破局—融生—定勢。它不提供標準化的問題解決方案,因為在這個時代,本來就不存在放之四海而皆準的答案。相反,它致力於幫助企業家建構屬於自己的“認知作業系統”,在複雜環境中保持清晰的判斷力。此外,它匯聚了來自各個領域的頂尖學者,包括具有全球視野的政策專家、深耕前沿的科學家、以及經歷過多個經濟周期的企業家。將通過案例研討、企業模擬、實地參訪等多種教學方式,幫助學員建立綜合性知識結構,提升戰略預見能力。邱震海博士曾直指本質地發問:中國的賈伯斯、馬斯克究竟在那裡?顯而易見,在這個充滿不確定的時代,那些能夠融合多領域智慧、在跨學科交匯處開闢全新可能性的企業家,才是未來商業文明的締造者和趨勢的定義者。他們不僅能主動參與規則的制定、價值的定義、未來的書寫,也更有可能成為中國的“賈伯斯”或“馬斯克”。 (邱震海)